iT邦幫忙

2023 iThome 鐵人賽

DAY 10
0
自我挑戰組

馬克的 Kali Linux 與資安學習小筆記系列 第 10

30-10 OWASP - Information Gathering ( 1 )

  • 分享至 

  • xImage
  •  

上面基本的搜集情報的工具大概都知道,這裡我想來理解一下

WSTG - 4.1 Information Gathering 相關的測試是測那些東西,就代表這一塊我們需要注意什麼。

4.1.1 Conduct Search Engine Discovery Reconnaissance for Information Leakage

4.1.1 Conduct Search Engine Discovery Reconnaissance for Information Leakage

這一章節主要是測試在現今網路世界所提到的『 搜尋引擎 』可否取得到我們的敏感資訊,例如 :

  • network diagrams and configurations

  • archived posts and emails by administrators or other key staff

  • logon procedures and username formats

  • usernames, passwords, and private keys

  • third-party, or cloud service configuration files

  • revealing error message content

  • development, test, User Acceptance Testing (UAT), and staging versions of sites.

其中最主要的搜尋方法就是我們這一篇文章中所提到的 google hacking。

然後測試的攻擊用 hacking ( dork ) 有一些會從我們之前提到的這個網址來的。

https://www.exploit-db.com/google-hacking-database

4.1.2 Fingerprint Web Server

4.1.2 Fingerprint Web Server

這一篇主要就是來知道 web server 的相關資訊,然後這些資訊我們都可以透過一個叫啥 banner grabbing的方法來取得,但事實上就是用一下工具打 http 或啥的來取得服務的相關資訊 ( 從 header )。

然後像我們之前文章有提到的 nmap 也有提到,如下,像這裡就可以知道我們是用 nginx 來當 reverse proxy :

➜  server git:(feat/export-monthly-payroll-csv) ✗ nmap -sV hahow.in
Starting Nmap 7.94 ( https://nmap.org ) at 2023-09-25 20:33 CST
Stats: 0:00:02 elapsed; 0 hosts completed (1 up), 1 undergoing Connect Scan
Connect Scan Timing: About 1.85% done; ETC: 20:35 (0:01:46 remaining)
Stats: 0:00:03 elapsed; 0 hosts completed (1 up), 1 undergoing Connect Scan
Connect Scan Timing: About 4.20% done; ETC: 20:34 (0:01:08 remaining)
Nmap scan report for hahow.in (35.229.250.9)
Host is up (0.011s latency).
rDNS record for 35.229.250.9: 9.250.229.35.bc.googleusercontent.com
Not shown: 998 filtered tcp ports (no-response)
PORT    STATE SERVICE  VERSION
80/tcp  open  http     nginx (reverse proxy)
443/tcp open  ssl/http nginx (reverse proxy)

或是用這個網站給可以取得到不少 web 資訊,仔細看下面這個網址真的資訊好多。

https://sitereport.netcraft.com

4.1.3 Review Webserver Metafiles for Information Leakage

4.1.3 Review Webserver Metafiles for Information Leakage

這個主要是在確保服務不會因為 metafile,而洩漏敏感信息或暴露不必要的功能。

然後它裡面提到的 metafiles 大部份是如下的東西 :

  • Robots : robots.txt,然後文中有提到可以用『 Google Webmaster Tools ( Google Search Console ) 』來檢查。

  • META Tag

  • Sitemaps

  • Security TXT : 它是一種標準文件,用於提供網站和服務的安全政策。

  • Humans TXT : 它是一個網站的倡議文件,你可以用這個連結來看 google 的這份文件

  • Other .well-known Information Sources

4.1.4 Enumerate Applications on Webserver

4.1.4 Enumerate Applications on Webserver

這篇有點不是很能理解他要測試什麼,只知道有提到在尋找一個伺服器沒有沒漏洞時,會先去尋找這個伺服務所曝露服務,然後有提到什麼 nmap。

在 how to test 中有提到三點 :

  • Different Base URL

  • Non-standard Ports

  • Virtual Hosts

這篇我只知道,它一直再強調列舉伺服器上公開服務和應用程序的重要性,以確保它們的配置正確且及時更新,以防止已知漏洞的濫用和提高伺服器的安全性。

4.1.5 Review Webpage Content for Information Leakage

4.1.5 Review Webpage Content for Information Leakage

這個就是查看 web page ( html、js ) 來看看要有沒資訊洩漏的問題,然後主要會看 web page 的幾個地方。

  • Review webpage comments and metadata

  • Identifying JavaScript Code and Gathering JavaScript Files

  • Identifying Source Map Files

反正就是以上三個地方不要洩漏什麼敏感資訊就好。


上一篇
30-9 搜集情報篇 - whois 與 nmap
下一篇
30-11 - OWASP - Information Gathering ( 2 )
系列文
馬克的 Kali Linux 與資安學習小筆記30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言